Word Embeddings: Encoding Lexical Semantics
lexical semantics(語彙の意味)
👉Word Embeddingsはニューラルネットワークが学習する
An Example: N-Gram Language Modeling
直前の2語で単語を表す例
([word[0], word[1]], word[2])
直前の2語がcontext、表される語がtarget
バイグラムの1つ1つについてzero_gradしている
Recall that torch *accumulates* gradients. Before passing in a new instance, you need to zero out the gradients from the old instance
Continuous Bag-of-WordsのExerciseもあり